首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏产品经理的人工智能学习库

    大数据(Big data

    文章目录 百度百科版本 大数据(big data),指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产

    1.5K20发布于 2019-12-18
  • 来自专栏大数据文摘

    BIG DATA + BIG IDEAS = BIG IMPACT(70+ PPT)

    来源: http://www.slideshare.net/mobile/geniusworks/big-data-big-ideas-big-impact 【译者简介】 有意联系译者,请给“大数据文摘

    77240发布于 2018-05-23
  • 来自专栏AustinDatabases

    big data” 与 “database” ?

    4 最主要的一个点还是 BIG , 如果整体预估的数据量在几十个 T 左右,传统的数据库,或者NEW SQL ,以及分布式数据库处理这些并不是很大的问题,同时 MPP结构的数据仓库系统在 P级别左右的数据量的处理也不是很麻烦

    1K10发布于 2019-12-17
  • 来自专栏Panda诚

    The 4 V’s of Big Data

    当今的普遍共识是大数据是有特定的属性的。在大多数大数据圈中,它们被称为四个V:体积,种类,速度和准确性(volume, variety, velocity, veracity.)。

    1.6K40发布于 2020-09-01
  • 来自专栏大数据和云计算技术

    Big data analytics beyond hadoop

    今天给大家推荐一本书《big data analytics beyond hadoop》。书的名字应该可以翻译为《hadoop下一代数据分析技术》。 这本书主要讲的是BDAS(Berkeley Data Analytics Stack)伯克利数据分析技术堆栈。伯克利这个大学真是牛,以前搞的BSD,是UNIX系统里面一个重要分支。

    926100发布于 2018-03-08
  • 来自专栏summer it专栏

    大数据时代(BIG DATA

    结语,正在发生的未来。凡是过去,皆为序曲。历史最悠久的做事方法并不是最好的。大数据时代是名副其实的“信息社会”。大数据给我们带来了巨大的风险,但我们可以建立规范自身的新准则。更大的数据来自人本身。在一个利用数据做出决定的数据里,人类的直觉、常识和意外运气就显得十分重要。因为科技永远无法揭示人类的伟大。大数据提供的不是最终答案,而只是参考答案,为我们提供暂时的帮助,以便等待更好的方法和答案出现。这也提醒我们在使用这个工具的时候,应当怀有谦恭之心。铭记人性之本。

    1K50发布于 2018-06-06
  • 来自专栏超级架构师

    IBMs Watson spearheading a big data analytics

    , and about 90 percent of that data is never captured. Just imagine if we could tap into all that data," he said. Analytics is the universal translator for data. did note that IBM and the technology industry as a whole are only at the start of making full use of big data, machine learning and cognitive computing.

    740100发布于 2018-04-09
  • 来自专栏小赵Java总结

    初始大数据(Big Data)开发

    一、对大数据的认识 大数据(big data),或称巨量资料,指的是所涉及的资料量规模巨大到无法透过目前主流软件工具,在合理时间内达到撷取、管理、处理、并整理成为帮助企业经营决策更积极目的的资讯。

    35520编辑于 2022-12-01
  • 来自专栏全栈程序员必看

    How AHI Fintech and DataVisor are Securing Data through AI and Big Data

    Instead of circumventing regulations, enterprises have now shifted their focus on two major aspects of big These two areas are crucial in the field of big data as their emergence has given rise to a group of an exclusive interview with HC Financial Service Group CFO Shen Yutong (Tony Shen) in New York, the Big We then combine it with user use scenarios, use AI and Big Data methods to help the client get value Using an active machine learning platform, massive data processing capabilities provided by a Big Data

    50610编辑于 2022-07-21
  • 来自专栏Hadoop数据仓库

    Pentaho Work with Big Data(八)—— kettle集群

    cd /home/grid/data-integration/ . cd /home/grid/data-integration/ . cd /home/grid/data-integration/ . cd /home/grid/data-integration/ . cd /home/grid/data-integration/ .

    86720编辑于 2022-05-07
  • 来自专栏随手写个文章

    Orca: A Modular Query Optimizer Architecture for Big Data(翻译)

    SQL Server Parallel Data Warehouse (PDW) [23]广泛重用了已建立的Microsoft SQL Server优化器。 Efficient Processing of Data Warehousing Queries in a Split Execution Environment. SAP HANA Database: Data Management for Modern Business Applications. IEEE Data Eng. Bull., 18(3), 1995. [14] G. Graefe and W. J. McKenna. Hive - A Petabyte Scale Data Warehouse using Hadoop. In ICDE, 2010. [29] F. Waas and C.

    1.1K30编辑于 2023-09-28
  • 来自专栏DrugOne

    AI提高药物发现效率 | ML,Supercomputers and Big Data

    药物研发成本的增加和投资回报率的降低对制药行业构成了巨大的威胁。新兴技术有可能大幅提高药物研发和制造的效率。人工智能(AI)被认为是一种令人难以置信的工具,可以增强医疗保健的多个方面,特别是药物发现。越来越多的制药公司正在投资人工智能。尽管最初持怀疑态度,但医疗人工智能市场据称到2020年将增长到80亿美元,主要受到药物发现应用的推动。

    58130发布于 2021-01-29
  • 来自专栏工科狗和生物喵

    【我读《Big Data》】预测---大数据的核心

    就好比这本《Big Data》 我都读到195页了。但是我写的读书笔记还在16页晃悠,心塞。不过还好吧。今天多输出点,当做复习好了~~~ 正文 ---- 大数据的核心就是预测。

    92870发布于 2018-05-07
  • 来自专栏Hadoop数据仓库

    Pentaho Work with Big Data(一)—— Kettle连接Hadoop集群

    192.168.56.104安装Pentaho的PDI,安装目录为/root/data-integration。 /plugins/pentaho-big-data-plugin/hadoop-configurations/cdh54/ scp /home/grid/hadoop/etc/hadoop/core-site.xml root@192.168.56.104:/root/data-integration/plugins/pentaho-big-data-plugin/hadoop-configurations/cdh54 修改PDI安装目录的属主为grid mv /root/data-integration /home/grid/ chown -R grid:root /home/grid/data-integration 编辑相关配置文件 cd /home/grid/data-integration/plugins/pentaho-big-data-plugin/hadoop-configurations/cdh54

    1.2K10编辑于 2022-05-07
  • 来自专栏大数据

    ——In big data we trust

    先关注一则旧闻11月20日,德国联邦网络局禁止在该国销售儿童智能手表,穿戴设备的麦克风,可让家长听到孩子的环境,涉嫌侵犯他人隐私。另10月,挪威消费者理事会在报告中指出,部分儿童手表存在漏洞,在没有加密的情况下传输和存储数据。上面都是过去式,中国家长说好,觉得无所谓啊! 再一则比较严重的,也是本期核心:12月19日,德国联邦卡特尔局(Federal Cartel Office,FCO)裁定,指控Facebook,通过其社交网络之外的第三方收集和转移用户数据。大规模收集用户个人数据提出了警告,称这有违

    1.3K60发布于 2018-01-23
  • 来自专栏Hadoop数据仓库

    Pentaho Work with Big Data(二)—— Kettle提交Spark作业

    192.168.56.104安装Pentaho的PDI,安装目录为/home/grid/data-integration。 /plugins/pentaho-big-data-plugin/hadoop-configurations/cdh54 export SPARK_HOME=/home/grid/spark 图 /plugins/pentaho-big-data-plugin/hadoop-configurations/cdh54 图2 3. 修改PDI的Spark例子 cp /home/grid/data-integration/samples/jobs/Spark\ Submit/Spark\ submit.kjb /home/grid /data-integration/test/Spark\ Submit\ Sample.kjb 在Kettle中打开/home/grid/data-integration/test/Spark\

    75530编辑于 2022-05-07
  • 来自专栏腾讯云TI平台

    【算法比赛】NFL Big Data Bowl 数据挖掘比赛回顾

    导语 NFL Big Data Bowl是Kaggle上的一个数据比赛,本文旨在通过回顾比赛,梳理和学习其中的建模思路(点数据挖掘、图挖掘)、数据处理技巧(对抗验证、数据增强)、模型集成技巧(Snapshot 一.背景 笔者之前与队友derkechao参加了Kaggle举办的NFL Big Data Bowl比赛并有幸跻身金牌区,本文旨在对比赛进行回顾总结以及学习其他参赛者的建模经验。 1. 可获取的信息包括队员信息、比赛信息、环境信息,详细字段可以参考(https://www.kaggle.com/c/nfl-big-data-bowl-2020/data)。

    2.1K30发布于 2020-04-03
  • 来自专栏Hadoop数据仓库

    Pentaho Work with Big Data(三)—— 向Hadoop集群导入数据

    从下面的地址下载web日志示例文件,解压缩后的weblogs_rebuild.txt文件放到/home/grid/data-integration/test目录下。

    43720编辑于 2022-05-07
  • 来自专栏工科狗和生物喵

    【我读《Big Data》】序言部分--拥抱“大数据时代”

    正文之前 Big Data! A Revolution That Will Transform How We Live, Work, And Think! 大数据时代,生活,工作与思维的大变革! 两者产下了爱的结晶就是我们的主角--Big Data!! 2、 数据分为结构化与非结构化的数据,云计算出现之前,我们是没法处理社交网络,电子商务,移动通信的所产生的这些非结构化数据的。 美国建立了Data.gov网站,为大数据敞开了大门,英国印度也有此类网站,是一种“数据公开”的活动。是大数据的变革。我国如果要赶上大数据的变革,那么我们就要呼吁各界尝试开放数据,促进流通。

    1.1K40发布于 2018-05-07
  • 来自专栏Hadoop数据仓库

    Pentaho Work with Big Data(四)—— 转换Hive里的数据

    1. 建立hive表,导入原始数据,过程参考 http://blog.csdn.net/wzy0623/article/details/51133760 2. 建立一个作业,查询hive表,并将聚合数据写入一个hive表 (1)打开PDI,新建一个作业,如图1所示。

    39820编辑于 2022-05-07
领券